Среди множества анонсов конференции VMworld 2019, которая прошла в августе этого года, мы забыли рассказать о новой версии VMware vRealize Network Insight 5.0 (vRNI). Напомним, что это решение позволяет системным и сетевым администраторам (а также администраторам информационной безопасности) наблюдать за сетевым взаимодействием в рамках виртуальной инфраструктуры и предпринимать действия по ее защите.
Напомним, что о прошлой версии VMware vRNI 4.2 мы писали вот тут.
Давайте посмотрим, что нового появилось в vRealize Network Insight пятой версии:
1. Поддержка решения VeloCloud.
Компания VeloCloud не так давно была куплена компанией VMware. VeloCloud производит решение SD-WAN, которое позволяет воплотить принципы Software-Defined Networking в рамках WAN-сетей. Здесь появились 3 основных момента:
End-to-End мониторинг соединений SD-WAN в облаке и онпремизном датацентре.
Анализ потока и трафика приложений и бизнес-сервисов, используемых на Edge-площадках.
Уровень видимости Site/Branch и решение проблем приложений в собственном датацентре и облачной инфраструктуре.
Основное, на чем сфокусирован этот релиз vRNI 5.0 - обеспечение комплексной видимости сетевых потоков датацентров в гибридной и мультиоблачной среде.
2. Поддержка облака Microsoft Azure.
Как некоторые знают, прошлая версия vRNI поддерживала облака VMware Cloud on AWS, включая решение по управлению контейнерами Kubernetes - VMware Enterprise PKS, а также среды контейнеров OpenShift. Теперь же vRNI пятой версии поддерживает и облачные инфраструктуры Microsoft Azure.
Сегодня гибридные Enterprise-инфраструктуры очень часто используют ресурсы облака Azure, поэтому появление такой поддержки со стороны vRNI было вполне ожидаемым. Этот релиз содержит функции для работы с такими сервисами, как Application Discovery, Application Dependency Mapping, Security Recommendations, Network Flow Analysis и прочими, которые доступны в одной консоли с помощью инвентаря Azure.
Единую консоль управления теперь можно использовать как для собственной инфраструктуры (частного облака), так и для приложений в средах VMware Cloud on AWS, Amazon AWS и Microsoft Azure.
Те, кто хочет почитать об окупаемости внедрения решения vRNI, могут почитать вот такой Case Study.
Решение Network Insight Cloud можно попробовать бесплатно как обланый сервис VMware Cloud Service в течение 30 дней по этой ссылке.
Перед проходившей недавно конференцией VMworld 2019 компания VMware объявила об обновлении платформы VMware HCX Enterprise, которая теперь позволяет проводить миграции с различных опремизных инфраструктур (на базе как vSphere, так и Hyper-V или KVM) в облако на базе VMware vCloud. Давайте посмотрим, как устроено это решение.
Ранее VMware HCX (расшифровывается как Hybrid Cloud Extension) мог сопровождать процессы миграции виртуальных машин vSphere из локального датацентра в облачную инфраструктуру сервис-провайдеров VCPP или публичных облаков, но теперь это гораздо более функциональное средство - для миграции поддерживаются гипервизоры RedHat OpenStack/KVM и Microsoft Hyper-V.
Для этого есть специальные дата муверы, которые обеспечивают процесс, называемый OS Assisted Migration (OSAM).
Много лет назад для миграций на уровне собственного датацентра можно было использовать VMware Converter (продукт, который был незаслуженно забыт), но теперь VMware HCX Enterprise дает гораздо более широкие возможности по созданию уже гибридных инфраструктур за счет перемещения части виртуальных машин в облако и обслуживания единого пространства для существования машин в гибридной среде.
VMware HCX работает с vSphere 5.5 и более поздними версиями, а также гипервизорами KVM и Hyper-V, чтобы создать единую среду между онпремизным датацентром и облачным на основе архитектуры VMware Cloud Foundation (VCF), где работают средства по обеспечению катастрофоустойчивости рабочих нагрузок VMware Site Recovery Manager. Кстати, самыми крупными партнерами VMware в рамках программы VCPP являются IBM, OVH и Centurylink, а поддерживаемыми публичными облаками - AWS, Azure и GCP.
VMware HCX может быть первым шагом для крупных компаний в плане начала создания гибридной инфраструктуры, которая использует ресурсы нескольких облаков (то, что на картинке выше обозначено как v5). Ведь уже сейчас пользователи испытывают потребность облачных ресурсах больших публичных облаков, а также сторонних специализированных облаках, таких как Telco Clouds (на базе решений SDN / NFV).
HCX предоставляет возможность миграции виртуальных машин и приложений между различными видами облаков по принципу Any2Any. С точки зрения виртуальной машины, ее ОС и приложений, HCX выступает уровнем абстракции, который представляет машине единую гибридную среду в которой находятся все локальные и облачные ресурсы (infrastructure hybridity). Это дает возможность машинам перемещаться между датацентрами, не требуя реконфигурации самих ВМ или инфраструктуры.
Решение HCX представлено двумя компонентами:
HCX Cloud (Target) – это машина HCX Management, которая развернута, например, в облаке VMC on AWS SDDC.
HCX Enterprise (Source) – это ВМ, которая развертывается в онпремизном датацентре клиента.
Если вы пользуетесь услугами облака VMware vCloud on AWS, то HCX Cloud у вас готов к использованию (надо только нажать кнопку Deploy в консоли VMC). После этого вы сможете использовать HCX cloud web console, где можно скачать готовый виртуальный модуль HCX Enterprise OVA для использования уже в онпремизном датацентре. После создания конфигурации из локальной и облачных сред между ними автоматически настраивается IPsec VPN.
После этого вы сможете управлять гибридной средой с помощью HCX Manager:
HCX Enterprise в онпремизном датацентре отвечает за выполнение следующих задач:
Создание интегрированной среды управления vCenter между облаком и онпремизным датацентром.
Соединение площадок в единое облако HCX Cloud.
Развертывание дополнительных компонентов (сервисных виртуальных модулей). Эти компоненты автоматически развертываются и в облаке AWS одновременно с онпремизными:
HCX WAN Interconnect - проводит миграцию vMotion между площадками через интернет или выделенные линии. Он также отвечает за обеспечение безопасности и шифрования. С точки зрения vCenter, это выглядит как фейковый ESXi-хост на обеих площадках, действующий как прокси для миграции ВМ между сайтами.
HCX WAN Optimization - отвечает за оптимизацию канала средствами дедупликации и компрессии трафика.
HCX Network Extension - реализует расширение L2-адресации на единое пространство с облаком, чтобы машины при миграции не требовали перенастройки MAC и IP-адресов.
Предоставление Restful API и HCX API (к документации можно получить доступ по адресу https://<HCX Enterprise>/hybridity/docs).
На стороне публичного облака, например, vCloud on AWS, это выглядит несколько более сложно (там задействуется решение VMware NSX для обеспечения сетевой инфраструктуры), но компоненты те же:
Для инфраструктуры на базе VCPP (например, в облаке IBM) все выглядит проще (но там несколько меньше возможностей для конфигурации сетевого стека):
Помимо перечисленных основных 3 компонентов, HCX реализует еще несколько полезных сервисов, таких как пакетная миграция ВМ, средства катастрофоустойчивости (Disaster Recovery), возможности миграции с других гипервизоров (OS Assisted Migration) и прочее:
При миграции виртуальных машин между площадками есть пять типов миграций:
VMware HCX Bulk Migration - этот метод использует средства VMware vSphere Replication для массового перемещения виртуальных машин на удаленную площадку. Потом происходит переключение обслуживания на реплики, что эквивалентно простою сервиса на период перезагрузки ВМ.
VMware HCX vMotion - здесь применяются обычные средства vMotion для перемещения ВМ (1 машина в один момент времени, без перерыва в обслуживании).
VMware HCX Cold Migration - это миграция остановленной машины с источника на таргет, с максимальными гарантиями сохранности данных, но простоем сервиса.
VMware HCX Replication Assisted vMotion (RAV) - эта техника совмещает в себе преимущества HCX Bulk Migration (параллелизм операций и возможность запланированного запуска) с HCX vMotion (без прерывания сервиса). Это новый режим, появившийся в августе этого года.
VMware HCX OS Assisted Migration - это миграция виртуальных машин с не-vSphere гипервизоров на онпремизную или облачную инфраструктуру vSphere (также новая функция HCX Enteprise).
Для мониторинга решения HCX можно использовать специальный пакет vRealize Operations Management Pack for HCX, который предоставляет интегрированные дэшборды и отчеты, а также дает всю необходимую информацию о возникающих проблемах.
Более подробно о решении HCX можно узнать на основной странице продукта. Администраторам гибридных инфраструктур VMware vSphere, использующих ресурсы различных облаков, стоит присмотреться к этому решению, так как оно существенно упрощает контроль над виртуальными машинами, которые перемещаются между датацентрами (и, конечно же, создает платформу для всего этого), а также позволяет своевременно отслеживать и решать возникающие проблемы.
Это гостевой пост сервис-провайдера ИТ-ГРАД, предоставляющего в аренду виртуальные машины из облака. Вы наверняка много раз видели эпические фотографии из ЦОД-ов, в которых за горизонт уходят стойки забитые серверами, установлены мощные генераторы и системы кондиционирования. Многие любят хвастаться такими кадрами, но меня всегда интересовало, а как операторы ЦОД-ов выбирают и настраивают своё оборудование? Таги: IT-Grad, IaaS, Datacenter, Enterprise, Cloud
Напомним, что vCloud Foundation (VCF) - это комплексное программное решение, которое включает в себя компоненты VMware vRealize Suite, VMware vSphere Integrated Containers, VMware Integrated OpenStack, VMware Horizon, NSX и другие, работающие в онпремизной, облачной или гибридной инфраструктуре предприятия, которые желательно развертывать все вместе, но можно какие-то и опустить. Важно, что в рамках этой архитектуры полностью поддерживается взаимодействие всех компонентов друг с другом, поэтому для VCF есть список продуктов и их версий (и это могут быть не самые последние версии), который и составляет архитектуру VCF. Напомним, что о версии VCF 3.0 мы писали вот тут.
Представленная архитектура VCF для сервис-провайдеров (VCPP) позиционируется как главный продукт для построения выделенных облачных инфраструктур для крупных клиентов (Dedicated Private Clouds). Решение комбинирует в себе возможности платформ VMware Software-Defined (vSphere и прочие продукты) и решения для миграции в виртуальную среду HCX. Облачная платформа VCF поставляется в трех изданиях, в зависимости от изданий входящих в него продуктов (подробнее об этом тут):
VMware Cloud Foundation соединяет в себе портфолио SDDC (vSphere, NSX, vSAN), а также средства управления SDDC Manager, что позволяет создать валидированную архитектуру на стороне сервис-провайдера и обеспечить управление жизненным циклом всех компонентов, чтобы облачные провайдеры могли запускать апгрейд всей инфраструктуры в один клик.
Онбординг пользователей в облачную среду провайдеров VCPP помогает производить решение VMware HCX, которое обеспечивает процесс миграции физических ресурсов предприятия в облачную среду на базе виртуальных машин в облаке:
Надо сказать, что решение VCF может работать поверх гибридной инфраструктуры предприятия - просто в облаке сервис-провайдера появляется еще один объединяющий элемент. Для традиционных хостинг-провайдеров, которые предоставляют услуги Shared Hosting / Virtual Private Servers, решение VCF для VCPP позволит получить крупных заказчиков, при этом оно изначально заточено под выделенную инфраструктуру со множеством клиентов.
Для старта с решением VMware Cloud Foundation for Cloud Providers партнерам потребуется пройти специальное обучение в течение 1 недели.
Вторым важным анонсом стал выпуск архитектуры vCloud Foundation версии 3.8.1. Надо сказать, что этот релиз сфокусирован на инфраструктуре контейнеризованных приложений под управлением Kubernetes. Такая инфраструктура управляется совершенно иначе, по сравнению с традиционной платформой для виртуальных машин, поэтому целью было объединить рабочие процессы PKS (Pivotal Container Service) и VCF.
В этом релизе у VCF 3.8.1 появились следующие новые возможности:
Автоматизация развертывания решения PKS - теперь можно автоматически разместить нагрузку VMware Enterprise PKS в домене рабочей нагрузки NSX-T.
Средства интеграции VCF и PKS построены таким образом, что администраторам облака не требуется никаких специальных знаний в области Kubernetes, чтобы управлять интегрированной инфраструктурой контейнеров и виртуальных машин. Подробнее об этом рассказано тут.
Поддержка двухфакторной аутентификации - теперь она доступна для API на базе паролей в консоли SDDC Manager.
Улучшенные возможности Phone Home - предоставляет возможность провайдеру организовать функции phone home для данных в SDDC Manager одним кликом.
Обновленные списки версий ПО (Bill of materials, BOM) - включают в себя vSphere 6.7 Update 3, vSAN 6.7 U3, новые версии Horizon, NSX-T и vRealize.
Название продукта
Номер версии
Дата выпуска
Номер билда
Cloud Builder VM
2.1.1.0
3 SEP 2019
14487798
SDDC Manager
3.8.1
3 SEP 2019
14487798
VMware vCenter Server Appliance
vCenter Server 6.7 Update 3
20 AUG 2019
14367737
VMware vSphere (ESXi)
ESXi 6.7 Update 3
20 AUG 2019
14320388
VMware vSAN
6.7 Update 3
20 AUG 2019
14263135
VMware NSX Data Center for vSphere
6.4.5
18 APRIL 2019
13282012
VMware NSX-T Data Center
2.4.2 Patch 1
10 AUG 2019
14374081
Pivotal Container Service
1.4.1
20 JUN 2019
n/a
VMware vRealize Suite Lifecycle Manager
2.1 Patch 2
02 JUL 2019
14062628
VMware vRealize Log Insight
4.8
11 APR 2019
13036238
vRealize Log Insight Content Pack for NSX for vSphere
3.9
n/a
n/a
vRealize Log Insight Content Pack for Linux
1.0
n/a
n/a
vRealize Log Insight Content Pack for vRealize Automation 7.3+
2.2
n/a
n/a
vRealize Log Insight Content Pack for vRealize Orchestrator 7.0.1+
2.0
n/a
n/a
vRealize Log insight Content Pack for NSX-T
3.7
n/a
n/a
VSAN Content Pack for Log Insight
2.0
n/a
n/a
vRealize Operations Manager
7.5
11 APR 2019
13165949
vRealize Automation
7.6
11 APR 2019
13027280
Horizon 7
7.9.0
25 JUN 2019
13956742
Улучшения безопасности и исправления ошибок.
Более подробно о новых возможностях VCF можно узнать из Release Notes.
Это партнерский пост компании ИТ-ГРАД, предоставляющей в аренду виртуальные машины VMware из облака по модели IaaS. В сегодняшнем материале обсуждаем проекты, инициативы и фонды, которые занимаются разработкой оборудования open source и стандартов для ЦОД.
Как вы знаете, недавно обновленная платформа виртуализации VMware vSphere 6.7 Update 3 стала доступной для загрузки. Одновременно с этим компания VMware сделала доступной для скачивания и развертывания систему отказоустойчивых кластеров хранилищ VMware vSAN 6.7 Update 3. В обоих этих решениях появилась встроенная поддержка технологии Cloud Native Storage (CNS), о которой мы сегодня расскажем.
Итак, Cloud Native Storage (CNS) - это функциональность VMware vSphere и платформы оркестрации Kubernetes (K8s), которая позволяет по запросу развертывать и обслуживать хранилища для виртуальных машин, содержащих внутри себя контейнеры. По-сути, это платформа для управления жизненным циклом хранения для контейнеризованных приложений.
При этом для такого управления сделано специальное представление в интерфейсе vCenter, которое вы видите на картинке выше.
Основная задача CNS - это обеспечивать развертывание, мониторинг и управление хранилищами для Cloud Native Applications (CNA), то есть современных приложений, исполняемых в контейнерах Docker под управлением Kubernetes (но, кстати, в будущем возможна поддержка и таких платформ, как Mesos и Docker Swarm).
Архитектура CNS реализована двумя компонентами:
Интерфейс Container Storage Interface (CSI), представляющий собой плагин для K8s.
Консоль управления CNS Control Plane на сервере vCenter, доступная через vSphere Client.
Через консоль управления CNS администратор может получить представление об имеющихся хранилищах в среде K8s (и видеть маппинги хранилищ на виртуальные диски VMDK), а также управлять ими в большом масштабе, что очень сложно при оперировании на уровне отдельных контейнеров, так как их могут быть сотни на одном хосте ESXi.
Кстати, про оперирование CNS есть интересное видео от VMware:
Надо понимать, что технология CNS появилась не впервые. Ранее подобные функции реализовывал механизм vSphere Storage for Kubernetes (он же vSphere Cloud Provider, VCP). Проект VCP появился как результат внутреннего хакатона VMware, когда требовалось быстро сделать драйвер для кластеров Kubernetes.
До этого приходилось вручную монтировать хранилища контейнеров на виртуальные диски VMDK, что было крайне неудобно, а при большом количестве контейнеров - практически нереально.
Сейчас архитектура VCP реализуется такими решениями Kubernetes as a Service (KaaS), как VMware PKS, RedHat OpenShift, Google Cloud Anthos и Rancher. Для этой архитектуры было возможно 2 режима развертывания - "in-tree" и "out-of-tree". В первом случае VCP был интегрирован в дистрибутив Kubernetes и развертывался одновременно с ним, а во втором - подразумевал последующую интеграцию после развертывания K8s.
Ввиду того, что обновлять VCP при первом варианте развертывания можно было только одновременно с K8s, вариант "in-tree" был исключен из конфигурации развертывания Kubernetes. VMware использовала эту ситуацию для того, чтобы полностью переписать код VCP (который, скорее всего, был не самым оптимальным еще с хакатона) и получить новую архитектуру - CNS.
Также кстати оказалась и покупка компании Heptio (об этом мы упоминали вот тут) - в итоге VMware интегрировала решение CNS прямо в платформу vSphere, без необходимости что-либо развертывать дополнительно. Мало того, архитектура CNS поддерживает любой оркестратор контейнеров, построенный на базе спецификации CSI.
Таким образом, CNS Control Plane на сервере vCenter брокеризует соединение с плагином (на данный момент только для K8s), который уже взаимодействует на уровне Kubernetes.
Частью решения CNS являются First Class Disks (FCDs), о которых мы рассказывали вот тут. Они были придуманы для того, чтобы управлять сервисами, заключенными в VMDK-диски, но не требующими виртуальных машин для своего постоянного существования. Это очень удобно для контейнеров, так как их можно динамически привязывать и отвязывать, не оставляя после себя "осиротевших" VMDK.
Кроме всего этого, CNS полностью подчиняется политикам Storage Policy-Based Management (SPBM), а это значит, что инфраструктура таких хранилищ отлично согласуется с пространством ярусного хранения VMware vSAN и концепцией K8s StorageClass. Также CNS, конечно же, работает и с классическими хранилищами VMFS и NFS, что позволяет использовать политики SPBM на базе тэгов.
Надо отметить, что технология CNS доступна для всех пользователей VMware vSphere, начиная с издания Standard, поэтому платить отдельно за нее не придется. Ну и в заключение обзорное видео о том, что такое и как работает Cloud Native Storage:
Скачать VMware vSphere 6.7 Update 3 с интегрированной технологией CNS можно по этой ссылке.
Это гостевой пост нашего спонсора - облачного провайдера ИТ-ГРАД, предоставляющего услугу аренды виртуальных машин из облака. Говорим о балансировщике нагрузки от инженеров MIT, который планируют использовать в ЦОД. В статье — о принципах работы и возможностях решения.
Цель разработки
Аналитики одного из крупных облачных провайдеров говорят, что мировые ЦОД используют треть имеющихся у них вычислительных ресурсов. В исключительных случаях этот показатель может вырастать до 60%. Из-за неэффективного расходования мощностей в машинных залах появляются так называемые серверы-зомби. Они не выполняют полезную работу (находятся в состоянии «комы») и лишь впустую расходуют электричество. По данным Uptime Institute, без работы стоит около 10 млн серверов (это 30% всех машин). На поддержание их работоспособности ежегодно уходит 30 млрд долларов.
Инженеры из Массачусетского технологического института (MIT) решили исправить ситуацию. Они разработали балансировщик нагрузки, который в теории повысит эффективность использования ресурсов процессоров до 100%. Система получила название Shenango.
Как работает балансировщик
Shenango — это Linux-библиотека на языке программирования C (есть биндинги на Rust и C++). Она мониторит буфер задач CPU и распределяет процессы между свободными ядрами.
В основе системы лежит алгоритм IOKernel. Он запускается на отдельном ядре процессора и управляет запросами к CPU, которые поступают по сетевому интерфейсу NIC. Для этих целей IOKernel использует фреймворк DPDK (Data Plane Development Kit). Фреймворк дает приложениям возможность «общаться» с сетевыми картами напрямую.
Когда процессору поступает новая задача, IOKernel самостоятельно выбирает, какому ядру (или ядрам) ее передать. При этом для каждого процесса выделяются основные ядра (guaranteed) и вспомогательные (burstable) — последние подключаются только в том случае, если количество запросов резко возрастает.
Алгоритм проверяет буфер задач с интервалом в 5 мкс. Он ищет «застрявшие» процессы, которые CPU уже долгое время не может обработать. Если таковые обнаруживаются, они сразу же назначаются свободным ядрам (или другим серверам в дата-центре). Приоритет отдается ядрам, на которых уже выполнялся аналогичный процесс и часть информации о котором осталась в кэше.
Чтобы повысить эффективность балансировки, Shenango также использует метод work stealing. Ядра, работающие с одним приложением, автоматически снимают друг с друга часть нагрузки, если выполняют свои задачи раньше остальных.
Общую схему работы алгоритма IOKernel и системы Shenango можно представить следующим образом:
Код проекта и примеры приложений вы можете найти в официальном репозитории на GitHub.
Возможности
Разработчики говорят, что Shenango способен обрабатывать 5 млн запросов в секунду. Среднее время реакции при этом составляет 37 мкс. Эксперты ИТ-индустрии отмечают, что система поможет оптимизировать работу веб-приложений, например онлайн-магазинов. По статистике, секундная задержка при загрузке страницы снижает количество просмотров на 11%, что в дни распродаж может быть критично. Эффективное распределение нагрузки поможет обслужить большее количество клиентов.
Сейчас инженеры из MIT работают над устранением недостатков и расширением функциональности своего решения. Пока что Shenango не умеет работать с многопроцессорными NUMA-системами. В них чипы подключены к различным модулям памяти и не могут взаимодействовать друг с другом напрямую. Такой подход усложняет распределение нагрузки: IOKernel может контролировать работу отдельного кластера процессоров, но не все устройства сервера.
Кто еще разрабатывает балансировщики нагрузки на CPU
Не только в MIT занимаются разработкой систем распределения нагрузки на процессоры. В качестве еще одного примера можно привести систему Arachne — это библиотека C++ для Linux (код есть на GitHub, документацию по API можно найти на официальном сайте). Arachne рассчитывает, сколько ядер понадобится конкретному приложению, и выделяет необходимое количество при запуске соответствующего процесса.
Еще одним примером балансировщика может служить ZygOS — специализированная операционная система, которая использует структуры данных с общей памятью, NIC с несколькими очередями и межпроцессорные прерывания для распределения нагрузки между ядрами. Как и Shenango (в отличие от Arachne), решение также использует подход work stealing. Код проекта можно найти на GitHub.
Современные дата-центры становятся все крупнее. В мире уже построено более четырехсот гипермасштабируемых ЦОД. В ближайшее время их число вырастет еще на 30%. Технологии балансировки нагрузки позволят эффективнее расходовать вычислительные ресурсы. Поэтому решения подобные Shenango, ZygOS и Arachne будут становиться все более востребованными — уже сейчас их внедряют крупные корпорации.
Компания VMware на днях объявила о скором выпуске новой версии решения для создания отказоустойчивых кластеров хранилищ - VMware vSAN 6.7 Update 3. Основная тема нововведений - поддержка облачных сред размещения виртуальных машин и работа с контейнеризованными приложениями.
Давайте посмотрим, что именно нового появилось в vSAN 6.7 Update 3:
1. Поддержка контейнеров приложений в облачных средах.
Контейнеры стали одной из главных моделей распространения приложений в облачной среде. Сама технология контейнеризации упрощает развертывание и обслуживание приложений, выделяя их в микросервисы, но все процессы вокруг них становятся сложнее (оркестрация, организация персистентных хранилищ, сетевая коммуникация).
vSAN 6.7 Update 3 имеет встроенные инструменты по организации постоянных хранилищ для контейнеров приложений, в том числе в облачных средах. Технология vSAN cloud native storage поддерживает все ключевые API-вызовы к хранилищам внутри кластеров Kubernetes через драйвер Container Storage Interface (CSI). Теперь разработчики смогут применять политики хранилищ SPBM при развертывании новых pods и монтировании томов с постоянными хранилищами, точно так же, как они делают это с виртуальными дисками машин.
Если же вы используете тома Virtual Volumes на платформе vSAN, то получите еще больше преимуществ:
Развертывание хранилищ контейнеров через API параллельно с самими контейнерами.
Возможность портирования приложений между частным и публичным облаком в рамках гибридной среды с поддержкой одного набора операций и инструментов.
2. Нативная гибридная среда инфраструктуры vSAN.
Сейчас гибридные среды становятся очень распространенной моделью доставки ИТ-сервисов, так как именно сочетание частного и публичного облаков дает самый большой эффект с точки зрения масштабирования и обеспечения показателей качества предоставления услуг. При этом администраторы хотят, чтобы приложения Docker также имели возможность бесшовно перемещаться между публичным и частным облаками со всеми их хранилищами.
Теперь vSAN предоставит интеграцию с сотнями облачных провайдеров, включая "большую четверку" Amazon, Microsoft, Google и IBM, которая позволит использовать тот же набор средств и утилит vSAN для хранилищ контейнеров в облаке, что и в частной инфраструктуре.
3. Унифицированные средства управления vSAN для контейнеров и виртуальных машин.
В одной виртуальной машине может быть много контейнеров приложений, вплоть до нескольких сотен. При возникновении проблем с хранилищем для одного из контейнеров становится очень и очень сложно понять ее причину. Теперь же vSAN предоставляет администраторам гранулярную видимость внутри ВМ до уровня контейнеров, что позволяет мониторить состояние отдельных хранилищ контейнеров на уровне томов для каждого из них.
В рамках единого пространства хранения можно анализировать использование емкости виртуальными машинами и контейнерами:
Все это позволит командам DevOps быстрее решать проблемы с хранилищами контейнеризованных приложений через стандартную консоль vSphere Client.
4. Интеллектуальные средства управления вводом-выводом.
Теперь vSAN еще более эффективно работает при обмене данными между буффером на чтение (write buffer) и пространством хранения (capacity tier). Особенно заметна эта оптимизация для последовательных операций записи (что очень актуально для процессов ресинхронизации и восстановления данных).
Адаптивная ресинхронизация теперь идет в рамках множества параллельных потоков, что увеличивает ее эффективность:
Также в vSAN 6.7 U3 появились дополнительные метрики, касающиеся использования CPU хост-серверов ESXi (особенно актуально для дедупликации, шифрования и компрессии). Кроме того, появилась новая команда vsantop, которая показывает эти и многие другие полезные метрики:
5. Прочие улучшения.
Тут собраны различные улучшения vSAN 6.7 Update 3:
Механизмы управления емкостью были улучшены таким образом, чтобы запускать операцию ресинхронизации на базе доступной емкости. Если какая-то дисковая группа заполнена, то операции ресинхронизации ставятся на паузу, чтобы предотвратить повреждения хранилищ.
Администратор может выбрать опцию автоматической или ручной ребалансировки данных в кластере. Така как каждая инфраструктура индивидуальна, доступна тонкая настройка механизма ребалансировки, в зависимости от потребностей администратора.
Теперь применения политик SPBM идут пачками, что существенно ускоряет производительность при изменении структуры политик.
Выполнение обслуживания или изменении конфигурации во время операций ресинхронизации может привести к неправильному завершению этого процесса, поэтому в SAN 6.7 U3 клиент vSphere Client лучше понимает, когда выполняется этот процесс, и не дает мешать ему.
Механизм pre-check симуляции, который позволяет администратору понять, что произойдет в случае изменения конфигурации кластера или его обслуживания.
При изменении конфигурации шифрования, компрессии или дедупликации требуется изменения формата дисков (Disk format changes, DFC). Если для этого процесса недостаточно ресурсов, то специальная проверка даст знать об этом еще до выполнения операции.
vSAN теперь сам предлагает обновиться на новый мажорный релиз или накатить обновления.
Ранее vSAN требовал, чтобы vCenter был той же версии или более новый, теперь же поддержка прошлых версий vCenter стала более гибкой.
Теперь в vSAN 6.7 U3 проще включить vSAN Support Insight и взаимодействовать с поддержкой VMware.
iSCSI LUN, презентованные из vSAN, теперь можно ресайзить без необходимости переводить том в оффлайн.
SCSI-3 persistent reservations (SCSI-3 PR) теперь дают возможность нативной поддержки кластеров Windows Server Failover Clusters (WSFC), требующих общего диска.
Издание vSAN Enterprise Plus
Да, теперь VMware, как и для многих других продуктов, вводит издание Enterprise Plus для платформы vSAN. Эта лицензия будет включать в себя комбинацию продукта vSAN Enterprise и средства управления облачной средой vRealize Operations Advanced.
Все это даст следующую функциональность в связке двух решений:
Географически растянутые кластеры с возможностями локальной защиты и синхронной репликацией.
Средства нативного шифрования vSAN Encryption с поддержкой дедупликации и компрессии. В качестве провайдеров KMIP можно использовать такие решения, как CloudLink, Hytrust, SafeNet, Thales и Vormetric.
Постоянная оптимизация производительности с возможностями предиктивной аналитики и проактивного планирования.
Возможность интеллектуального решения проблем и продвинутый траблшутинг на базе аналитики метрик и логов с использованием средств обзора приложений на уровне всей инфраструктуры.
Более подробно о VMware vSAN 6.7 Update 3 мы узнаем на предстоящей конференции VMworld 2019, которая пройдет в конце августа в Сан-Франциско.
В апреле мы писали о релизе облачной архитектуры VMware Cloud Foundation 3.7, в которую входит большинство основных продуктов для развертывания, исполнения, мониторинга и поддержки виртуальной инфраструктуры в онпремизном датацентре.
В конце июля компания VMware выпустила обновление этой архитектуры - Cloud Foundation 3.8. Теперь в состав комплекса решений входят следующие компоненты:
Давайте посмотрим, что там появилось нового:
1. Первый релиз публичного API.
Теперь облачной инфраструктурой можно управлять через публично доступный API, который включает в себя функции для создания, удаления и получения свойств объектов домены рабочей нагрузки (Workload Domains), кластеры, сетевые пулы и хосты. Данный API пока очень простой, но будет дорабатываться в дальнейшем.
2. Упрощение управления жизненным циклом.
Теперь вся архитектура поддерживает автоматическое обновление продуктов семейства Realize с помощью продукта vRealize Suite Lifecycle Manager (vRSLCM). Можно обновлять vRealize Log Insight, vRealize Operations Manager и vRealize Automation. Также автоматическое обновление доступно и для решения VMware NSX-T.
3. Поддержка Cloud Foundation на платформе VxRail.
Начиная с прошлого релиза, все компоненты vCF можно развернуть на аппаратной платформе Dell EMC VxRail. Но теперь эта поддержка позволяет использовать самый последний набор решений виртуального датацентра, включая продукт NSX-T в последней версии архитектуры.
Также консоль SDDC Manager теперь поддерживает управление сертификатами для VxRail Manager. Помимо этого, VxRail Manager теперь интегрирован с решением Log Insight таким образом, что он предоставляет автоматизацию управления логами и мониторинг для всей инфраструктуры.
4. Улучшения масштабируемости.
Теперь vCF поддерживает расширение кластера vRealize Operations Manager в консоли SDDC Manager для случаев, когда пользователям нужно промасштабировать кластер и добавить новые узлы.
5. Улучшения SSO.
Для обеспечения лучшего взаимодействия между доменами управления (Management Domains) и доменами рабочей нагрузки (Workload Domains), архитектура Cloud Foundation теперь может объединять домены SSO (а точнее их контроллеры PSC) для двух или более экземпляров Cloud Foundation.
Более подробно узнать об архитектуре VMware Cloud Foundation 3.8 можно по этой ссылке. Release Notes доступны тут (а вот тут - для платформы VxRail).
На сайте проекта VMware Labs появилось новое средство Enterprise OpenShift as a Service on Cloud Automation Services, позволяющее облачным администраторам загрузить пакет, интегрировать его с Cloud Assembly и другими сервисами инфраструктуры, чтобы организовать кластер OpenShift как услугу (OpenShift Cluster as a Service) для гибридной облачной среды.
Данное средство автоматизирует весь процесс развертывания пакетов OpenShift в облаке VMware vCloud on AWS (end-to-end). Таким образом можно построить полностью готовый промышленный кластер OpenShift с использованием служб VMware Cloud Assembly Services. При этом данный процесс полностью повторяем и автоматизирован.
Как именно это работает, вы можете увидеть в видео ниже:
Для начала работы с данным средством вам понадобится достаточно серьезный набор решений в вашей ИТ-инфраструктуре:
ОС Red Hat Enterprise 7.5 с активной подпиской для получения пакетов.
OpenShift версии 3.11.
Аккаунт в облачной инфраструктуре VMware Cloud on AWS или онпремизная среда vSphere.
Аккаунт VMware Cloud Services с доступом к Cloud Assembly Services (CAS).
vRealize Orchestrator 7.6, лицензированный с SaaS.
Windows 2016, работающий как хост PowerShell (Windows PowerShell версии 5.1.14393.3053)
Инфраструктурный сервер Windows 2016 Server (с ролями AD, DNS и NTP).
Скачать Enterprise OpenShift as a Service on Cloud Automation Services можно по этой ссылке. В комплекте с утилитой идет подробная документация на 40 страниц.
Таги: VMware, Labs, Cloud, VMConAWS, Amazon, AWS, OpenShift, Red Hat
Мы часто пишем об облачной платформе VMware vCloud on AWS (VMConAWS), которая позволяет разместить виртуальные машины на базе VMware vSphere в облаке Amazon AWS, а также построить гибридную среду, сочетающую в себе онпремизные и облачные ресурсы виртуальной инфраструктуры.
Сегодня мы поговорим об основном инструменте VMC, который позволяет управлять гибридной облачной средой. Сначала отметим, что управление такой структурой основывается на механизме Linked Mode, который объединяет серверы vCenter и позволяет использовать единое пространство объектов в географически распределенных датацентрах. Сейчас он называется Enhanced Linked Mode или Embedded Linked Mode (когда Platform Services Controller и vCenter Server Appliance находятся вместе на одном сервере).
Если вы разворачиваете Linked Mode на собственной инфраструктуре, то все серверы vCenter должны быть в одном домене SSO и иметь одну и ту же версию (включая номер билда). Когда же вы используете общий режим vCenter в гибридной среде (Hybrid Linked Mode), то ситуация, когда в облаке развернута более новая версия vCenter, считается нормальной.
Есть 2 способа использовать гибридный режим управления vCenter. Первый - это развернуть виртуальный модуль (virtual appliance) Cloud Gateway в своей инфраструктуре и соединить его с облачной инфраструктурой SDDC. Второй - это зайти с помощью vSphere Client на облачный SDDC и управлять объединенными ресурсами частного и публичного облака оттуда.
Во втором случае вы можете подключить только один домен онпремизной инфраструктуры, поэтому если у вас сложная доменная инфраструктура, то необходимо использовать первый метод.
Чтобы начать работу по созданию единой управляющей среды гибридного облака, нужно скачать установщик Cloud Gateway installer. Для этого надо зайти в консоль VMware Cloud on AWS и перейти на вкладку Tools. Там можно скачать этот виртуальный модуль:
Скачиваем ISO-образ Cloud Gateway и монтируем его к вашей рабочей станции. Запускаем его из папки /ui-installer и проходим по шагам мастера. На одном из них задаем параметры сервера онпремизного vCenter, где будет установлен шлюз:
В процессе установки вас попросят указать пароль root, целевой датастор, конфигурацию сети, NTP и SSO, также будет возможность присоединить шлюз к домену Active Directory.
Далее нужно переходить ко второму этапу - настройке гибридного режима Hybrid Linked Mode. Не забудьте свериться с требованиями к этому режиму в документации.
Далее нужно будет указать IP-адрес облачного сервера vCenter и параметры учетной записи cloudadmin@vmc.local.
Эту информацию можно получить в консоли VMware Cloud on AWS, выбрав ваш SDDC, затем Settings и развернуть поле Default vCenter User Account:
В качестве Identity Source нужно указать ваш онпремизный домен AD, для которого вы хотите настроить доступ.
После этого все будет настроено, и вы можете начинать управлять своей гибридной инфраструктурой через vSphere Client:
Эта платформа предоставляет инженерам по работе с данными следующие возможности в области Data Science в рамках виртуальной инфраструктуры:
Виртуальное окружение на основе облака VMware Cloud Foundation (VCF) и платформы Kubernetes.
На данный момент для вычислений поддерживается только CPU (но модули GPU будут поддерживаться в будущем).
Платформа построена на базе фреймворков Open Source Kubeflow и Horovod.
Также в составе идет коллекция обучающих примеров (Notebooks) и библиотек, которые помогают понять выполнение следующих задач:
Data collection and cleaning (получение данных из различных источников и описание семантики данных с использованием метаданных).
Data cleansing and transformation (приведение собранных данных в порядок и их трансформация из сырого формата в структурированный, который больше подходит для процессинга).
Model training (разработка предиктивных и оптимизационных моделей машинного обучения).
Model serving (развертывание модели для запуска в реальном окружении, где могут обслуживаться онлайн-запросы).
Для использования движка vMLP вам потребуется развернутая инфраструктура VMware Cloud Foundation 3.8.
В комплекте с платформой идет документация. Скачать весь пакет можно по этой ссылке.
На днях VMware сделала анонс о завершении M&A-сделки по приобретению компании Avi Networks, которая занимается разработкой программного обеспечения в сетевой сфере, способствующего прозрачной доставке пользователям приложений в онпремизных и облачных датацентрах.
Цель приобретения - дополнить портфолио продукта NSX технологиями, которые позволяют создать multicloud network-virtualization overlay (NVO) на уровнях 2-7 в рамках законченной концепции SDN (software-defined networks).
Философия Avi Networks заключается в том, что частные облака должны оперировать с приложениями точно так же, как и публичные, обеспечивая переносимость машин и приложений между датацентрами вне зависимости от исходной ИТ-инфраструктуры каждого из них.
Основные фичи, которые предоставляет Avi Networks для облачных инфраструктур:
Глобальный балансировщик для серверов на уровне датацентров
Ускорение миграции и работы приложений
Обеспечение защиты приложений при их миграции между облаками
Обеспечение доступности приложений
Мониторинг производительности и отчетность
Обнаружение сервисов в датацентре
Контейнеризация приложений на сетевом уровне (для миграции между датацентрами)
Предоставление RESTful API для интеграции в существующую сетевую инфраструктуру датацентров
Некоторые компоненты Avi Networks, в частности балансировщик нагрузки, будут интегрированы в продукт VMware NSX, также само решение Avi Networks будет доступно как самостоятельный ADC-продукт для глобальной балансировки нагрузки, сетевого экранирования (Web application firewall, WAF) и расширенной аналитики и отчетности о сетевой инфраструктуре приложений датацентров.
Например, можно получить вот такой отчет об end-to-end коммуникации пользователей с приложением, визуализирующий время отклика на каждом из сетевых сегментов:
Более подробнее о приобретении Avi Networks можно узнать из этого поста в блоге VMware.
Таги: VMware, Networking, Cloud, Avi Networks, vNetwork, Applications
Недавно компания VMware выпустила обновление платформы для виртуализации и доставки ПК предприятия VMware Horizon 7.9, а также обновила клиенты для этой платформы VMware Horizon Clients 5.1.
Помимо этого в сфере End User Comuting (EUC) VMware объявила об обновлении еще одной платформы - облачной инфраструктуры VMware Horizon Cloud (напомним, что мы писали об этом облаке на базе Azure тут и тут).
Давайте посмотрим, что нового появилось в июльском релизе Horizon Cloud on Microsoft Azure:
1. Поддержка дополнительных типов и размеров ВМ облака Azure.
Теперь поддерживается около 200 различных типов ВМ и их размеров для вариантов использования VDI и RDSH при назначении десктопов или создании фермы. Доступные для создания десктопы также зависят от типа подписки Azure и региона пользователя.
Некоторые размеры ВМ не поддерживаются Horzion Cloud - это не применимые к виртуальным ПК размеры в сериях Standard A series и B series.
А в основной консоли изменения коснулись, в первую очередь, механизма навигации (что всегда является большой проблемой в облачных консолях):
3. Улучшенные функции отчетности.
Теперь есть предсозданные отчеты, которые покрывают варианты использования сессий VDI и RDSH, а также учет статистик приложений в облачной среде. Есть также и готовые отчеты по пользователям:
4. Поддержка кастомной роли при создании Microsoft Azure Service Principal.
Пользователи больше не обязаны выбирать роль Contributor при создании Service Principal и теперь могут выбрать кастомную роль с возможностью гибкой настройки прав доступа. Напомним, что эта роль нужна для развертывания и оперирования сервисами.
Получить доступ к VMware Horizon Cloud on Microsoft Azure можно по этой ссылке.
Не так давно мы писали об обновлении платформы VMware Cloud Foundation 3.7, которая представляет собой набор продуктов для развертывания, исполнения, мониторинга и поддержки виртуальной инфраструктуры в онпремизном датацентре.
Архитектура VCF включает в себя компоненты VMware vRealize Suite, VMware vSphere Integrated Containers, VMware Integrated OpenStack, VMware Horizon, NSX и другие, работающие в онпремизной, облачной или гибридной инфраструктуре предприятия, которые желательно развертывать все вместе, но можно какие-то и опустить. Все это находится под управлением решения VMware SDDC Manager.
На днях был анонсирован еще один пакет решений - VMware Cloud Foundation Platinum. Смысл этой платформы - повышенная защищенность частных облаков, обеспечиваемая платформой виртуализации vSphere Platinum, где инфраструктура находится под наблюдением средства анализа и активной защиты - продукта AppDefense.
Он является ядром всей платформы с точки зрения безопасности и предоставляет множество возможностей, обеспечивающих защиту виртуальной инфраструктуры на различных уровнях:
Давайте посмотрим на ключевые моменты этой архитектуры:
1. Обеспечение умного подхода к безопасности.
По аналогии с vSphere Platinum и vCloud Suite Platinum, издание Platinum для VMware Cloud Foundation интегрирует решение AppDefense напрямую в гипервизор vSphere для защиты как самой платформы, так и рабочих нагрузок в виртуальных машинах. Фишка AppDefense - алгоритмы машинного обучения, которые позволяют обучиться нормальному сетевому поведению компонентов виртуального датацентра, а потом сигнализировать об отклонениях от этой модели и предпринимать некоторые шаги по активной защите инфраструктуры.
Действие AppDefense распространяется на vSphere, NSX и vSAN, что позволяет защитить все рабочие нагрузки, входящие в структуру Cloud Foundation.
2. Работа на различных уровнях в датацентре.
AppDefense не только смотрит на виртуальные машины извне, но и анализирует поведение приложений изнутри гостевых ОС, где их поведение полностью находится под наблюдением ML-алгоритмов. В этом процессе данные собираются от среды управления vCenter, а также различных средств разработки и фреймворков для управления виртуальной средой.
3. Многоуровневая защита.
AppDefense в рамках Cloud Foundation Platinum обеспечивает активную защиту на следующих уровнях:
Compute - анализ поведения ВМ на вычислительном уровне, в том числе тех, кто имеет включенные функции шифрования (VM encryption), как при хранении, так и при перемещении машин между хранилищами.
Network - решение NSX в виртуальном датацентре использует подход микросегментации и гранулярной безопасности, что полностью поддерживается рабочим процессом AppDefense (возможность перемещения политик безопасности вместе с ВМ, вне зависимости от топологии сети).
Storage - поддержка шифрования vSAN (data-at-rest encryption) на уровне кластера, а также инфраструктуры KMIP (поддерживаются такие продукты, как CloudLink, Hytrust, SafeNet, Thales и Vormetric).
Management - vCloud Suite автоматизирует рутинные операции (включая по обеспечению безопасности и мониторингу среды в реальном времени), исключая вероятность возникновения ошибок и уязвимостей по причине человеческого фактора.
Cloud Foundation Platinum - это законченное решение для гибридных виртуальных сред (частное+публичное облако под управлением одного пакета решений), где поведение всех приложений находится под наблюдением AppDefense в рамках комплексного рабочего процесса по обеспечению безопасности. Каждая из задач может выполняться пользователем с соответствующей ролью в виртуальном датацентре:
Более подробно о VMware Cloud Foundation Platinum можно узнать по этой ссылке.
Это гостевой пост компании ИТ-ГРАД, предоставляющей виртуальные машины из облака в аренду. VMware обновили свой гипервизор ESXi. Теперь скорость работы виртуальных графических процессоров под его управлением сопоставима с возможностями их bare metal реализаций — разница составляет всего 3%. Рассказываем, как компании удалось этого добиться...
На сайте проекта VMware Labs появилась еще одна утилита - Horizon DaaS Migration Tool 2.1. Она позволяет смигрировать ранние версии Horizon DaaS (6.1.5, 6.1.6, 7.0.0) на самую последнюю версию 8.0.0. Напомним, что Horizon DaaS - это продукт купленной компании Desktone.
Почему надо мигрировать на последнюю версию DaaS:
VMware Horizon DaaS 6.1.5, 6.1.6 скоро перестанет поддерживаться.
Клиенты на версии VMware Horizon DaaS 8.0.0 смогут обновиться на новые версии, для которых будут выходить новые фичи и апгрейд функциональности и безопасности.
Для миграции поддерживаются сценарии VMware Horizon DaaS 6.1.x и 7.0.0 на версию 8.0.0. Между тем, не поддерживаются следующие сценарии:
При миграции не поддерживаются Floating Desktops, поэтому их надо пересоздавать отдельно путем миграции золотых образов, после чего надо пересоздать пулы десктопов.
Миграция хостов RDSH и приложений. Их нужно мигрировать так же, как и Floating Desktops.
Функциональность Multi Data Center пока не поддерживается в Horizon DaaS 8.0.0.
Несколько Multi Desktop Managers не поддерживается для одного клиента.
Последние две возможности скоро будут доступны в обновленной версии Horizon DaaS. Скачать VMware Horizon DaaS Migration Tool 2.1 и инструкции по миграции можно по этой ссылке.
Как знают почти все администраторы платформы VMware vSphere, для кластеров VMware HA/DRS есть такой режим работы, как Enhanced vMotion Compatibility (EVC). Нужен он для того, чтобы настроить презентацию инструкций процессора (CPU) хостами ESXi так, чтобы они в рамках кластера соответствовали одному базовому уровню (то есть все функции процессоров приводятся к минимальному уровню с набором инструкций, которые гарантированно есть на всех хостах).
Ввели режим EVC еще очень давно, чтобы поддерживать кластеры VMware vSphere, где стоят хосты с процессорами разных поколений. Эта ситуация случается довольно часто, так как клиенты VMware строят, например, кластер из 8 хостов, а потом докупают еще 4 через год-два. Понятно, что процессоры уже получаются другие, что дает mixed-окружение, где по-прежнему надо перемещать машины между хостами средствами vMotion. И если набор презентуемых инструкций CPU будет разный - двигать машины между хостами будет проблематично.
EVC маскирует инструкции CPU, которые есть не на всех хостах, от гостевых ОС виртуальных машин средствами интерфейса CPUID, который можно назвать "API для CPU". В статье VMware KB 1005764 можно почитать о том, как в кластере EVC происходит работа с базовыми уровнями CPU, а также о том, какие режимы для каких процессоров используются.
Надо отметить, что согласно опросам VMware, режим кластера EVC используют более 80% пользователей:
В VMware vSphere 6.7 появились механизмы Cross-Cloud Cold и Hot Migration, которые позволяют переносить нагрузки в онлайн и офлайн режиме между облаками и онпремизной инфраструктурой.
Когда это происходит, виртуальной машине приходится перемещаться между хостами с разными наборами инструкций процессора. Поэтому, в связи с распространением распределенных облачных инфраструктур, в vSphere появилась технология Per-VM EVC, которая позволяет подготовить виртуальную машину к миграции на совершенно другое оборудование.
По умолчанию, при перемещении машины между кластерами она теряет свою конфигурацию EVC, но в конфигурации ВМ можно настроить необходимый базовый уровень EVC, чтобы он был привязан к машине и переезжал вместе с ней между кластерами:
Обратите внимание, что Per-VM EVC доступна только, начиная с vSphere 6.7 и версии виртуального железа Hardware Version 14. Эта конфигурация сохраняется в vmx-файле (потому и переезжает вместе с машиной) и выглядит следующим образом:
Некоторые пользователи не включают EVC, так как покупают унифицированное оборудование, но VMware рекомендует включать EVC в кластерах со старта, так как, во-первых, никто не знает, какое оборудование будет докупаться в будущем, а, во-вторых, так будет легче обеспечивать миграцию виртуальных машин между облачными инфраструктурами.
Основная причина, по которой не включают EVC - это боязнь того, что поскольку машины не будут использовать весь набор инструкций CPU (особенно самых последних), то это даст снижение производительности. Поэтому VMware написала целый документ "Impact of Enhanced vMotion Compatibility on Application Performance", где пытается доказать, что это не сильно влияет на производительность. Вот, например, производительность Oracle на выставленных базовых уровнях для разных поколений процессоров (в документе есть еще много интересных графиков):
Чтобы включить EVC на базе виртуальной машины, нужно ее выключить, после чего настроить нужный базовый уровень. Для автоматизации этого процесса лучше использовать PowerCLI, а сама процедура отлично описана в статье "Configuring Per-VM EVC with PowerCLI".
Для того, чтобы выяснить, какие базовые уровни EVC выставлены для виртуальных машин в кластере, можно использовать следующий сценарий PowerCLI:
Get-VM | Select Name,HardwareVersion,
@{Name='VM_EVC_Mode';Expression={$_.ExtensionData.Runtime.MinRequiredEVCModeKey}},
@{Name='Cluster_Name';Expression={$_.VMHost.Parent}},
@{Name='Cluster_EVC_Mode';Expression={$_.VMHost.Parent.EVCMode}} | ft
Это даст примерно следующий результат (надо помнить, что отчет будет сгенерирован только для VM hardware version 14 и позднее):
В примере выше одна машина отличается от базового уровня хостов, но в данном случае это поддерживаемая конфигурация. Проблемы начинаются, когда машина использует более высокий базовый уровень CPU, чем его поддерживает хост ESXi. В этом случае при миграции vMotion пользователь получит ошибку:
Понять максимально поддерживаемый режим EVC на хосте можно с помощью команды:
В целом тут совет такой - включайте режим Enhanced vMotion Compatibility (EVC) в кластерах и для виртуальных машин VMware vSphere сейчас, чтобы не столкнуться с неожиданными проблемами в будущем.
Это гостевой пост нашего партнера - сервис-провайдер ИТ-ГРАД, предоставляющего услугу аренды виртуальных машин из облака. «ИТ-ГРАД» давно сотрудничает с VMware, и нам интересно все, что происходит в технологической жизни партнера. По сложившейся традиции команда «ИТ-ГРАД» отправилась на конференцию...
Для многих пользователей публичного облака VMware vCloud on AWS одним из первых возникает вопрос - как предоставить доступ из виртуальной машины в сети Compute Network в сеть SDDC Management Network, например, для целей управления сервисами vCenter или другими службами виртуального датацентра?
Также этот вариант использования может быть востребован, когда вам требуется доступ к управляющим компонентам посредством таких интерфейсов, как PowerCLI, или развертывание виртуальных сервисов с помощью утилиты OVFTool. Вильям Лам написал об этом хорошую статью, и мы приведем здесь ее основные моменты.
Естественно, что для целей обеспечения безопасности в облаке, эти две сети по умолчанию разделены. Первое, что вам нужно сделать - это понять, с каким типом решения NSX для управления сетью вы работаете (NSX-T или NSX-V). Сделать это можно с помощью вот этой статьи.
Процедура для NSX-V
В среде NSX-V вам нужно настроить IPsec VPN между компонентами Management Gateway (MGW) и Compute Gateway (CGW) перед тем, как заработает коммуникация между сетями.
Для настройки VPN для компонента Management Gateway нажимаем Add VPN в консоли VMC и вводим требующуюся информацию сетевой идентификации (публичный IP удаленного шлюза, параметры удаленной сети и ключи), что должно отражать конфигурацию Compute Gateway (остальные настройки можно оставить по умолчанию).
Далее надо настроить VPN для Compute Gateway путем выполнения тех же шагов, что и в предыдущем абзаце, только указав конфигурацию шлюза Management Gateway. После того, как настройки обеих VPN будут сохранены, начнет отображаться статус "Partially Connected". Потом нажимаем ссылку Actions в правом верхнем углу, выбираем Edit и сохраняем настройки еще раз, чтобы на обоих шлюзах показался статус "Connected":
Теперь надо настроить сетевой экран Compute Gateway Firewall, чтобы разрешить исходящие соединения в SDDC Management Network по порту 443 для требуемых ВМ (этот порт используется для vSphere Client, а также для доступа через средства OVFTool и PowerCLI).
В приведенном ниже примере машина имеет адрес 192.168.1.4, и мы хотим позволить ей общаться с сетью 10.2.0.0/16 через порт 443:
Теперь нужно добавить в фаервол Management Gateway Firewall правила для разрешения входящих соединений для vCenter Server и хостов ESXi по порту 443 от наших определенных ВМ. Здесь все точно так же - указываем IP машины 192.168.1.4, и нам нужно добавить 2 правила для входящего трафика для разрешения коммуникации со средствами управления виртуальной инфраструктурой:
После этого вы можете залогиниться в виртуальную машину и использовать средства управления платформой vSphere, например, применять утилиту импорта виртуальных модулей OVFTool, как рассказано тут.
Процедура для NSX-T
В среде NSX-T вам не нужно создавать VPN для получения функциональности маршрутизации, которая изначально заложена в маршрутизаторе T0, ведь обе сети Management и Compute Network присоединены к T0. Между тем, правила сетевого экрана добавлять, конечно же, нужно.
В решении NSX-T используются сущности Inventory Groups, чтобы сгруппировать набор виртуальных машин и/или IP-адреса/сети, которые можно использовать при создании правил сетевого экрана.
Создаем две Inventory Groups для нашей Compute Group - одну для нашей виртуальной машины и одну для того, чтобы представлять сеть Management Network. Идем в Groups и в левой части выбираем пункт "Workload Groups", где создаем 2 группы:
Windows10 с Member Type вида Virtual Machine и указываем ВМ из инвентаря.
VMC Management Network с Member Type вида IP Address и указываем сетевой диапазон 10.2.0.0/16.
Теперь нужно создать еще одну Inventory Group для нашей Management Group, которая будет отражать ВМ, для которой мы хотим сделать доступ. Чтобы это сделать, идем в Groups, выбираем "Management Groups" и создаем следующую группу:
Windows10 Private IP с Member Type вида IP Address и указываем частный IP-адрес ВМ (в данном случае это 192.168.1.2).
Не забывайте нажать кнопку Publish, чтобы сохранить и применить правило сетевого экрана.
Теперь нужно создать правило сетевого экрана, чтобы разрешить Compute Gateway исходящие соединения к SDDC Management Network по порту 443 для нужных ВМ. Идем в Gateway Firewall и выбираем "Compute Gateway", где создаем новое правило, которое отражает группу Windows 10 как источник и группу VMC Management Network как назначение, а в качестве сервиса выбираем HTTPS (помним также про кнопку Publish).
Теперь надо создать правила на уровне Management Gateway, чтобы разрешить входящие соединения к хостам vCenter Server и ESXi по порту 443 из нужных нам ВМ. Идем в Gateway Firewall, слева выбираем "Management Gateway", затем создаем правило, которое отражает группу Windows 10 как источник, а в качестве группы назначения указываем vCenter и ESXi (сервис ставим также HTTPS):
После выполнения этой процедуры вы сможете залогиниться в ВМ Windows и использовать утилиту OVFTool для импорта/экспорта ВМ в ваш виртуальный датацентр (см. также данную процедуру здесь).
Если все было сделано правильно, вы должны иметь возможность доступа к интерфейсу vSphere Client из нужной вам ВМ, а также возможность выполнять сценарии PowerCLI и использовать утилиту OVFTool, как показано на скриншоте ниже:
Это гостевой пост сервис-провайдера ИТ-ГРАД, предоставляющего виртуальные машины в аренду из облака. Многие из нас уже давно устали от устаревшей системы управления услугами ЖКХ. Бесконечные очереди, на которые уходит огромное количество драгоценного времени, бюрократия, превращающая процесс подачи жалобы в мучительное испытание. Настало время все изменить...
Данный SDK представляет собой набор классов Python, предназначенных для автоматизации различных операций на уровне компонентов Cloud Assembly, Service Broker и Code Stream API при разработке новых инструментов, дополняющих средства управления облачной средой.
Это гостевой пост компании ИТ-ГРАД, предоставляющей виртуальные машины VMware в аренду из облака. Почти год прошел с момента вступления GDRP в силу. За это время регуляторы выписали приличное количество штрафов. Какие компании их уже получили и за что — обзор ситуации в нашем сегодняшнем материале. Согласно 33 статье GDPR, организации, работающие с персональными данными граждан ЕС, должны сообщать регулятору о любых утечках в течение 72 часов. ..
Компания StarWind хорошо всем вам известна как лидер отрасли в сфере производства программных и программно-аппаратных хранилищ под инфраструктуру виртуализации. В частности, одно из самых популярных решений StarWind Virtual SAN позволяет создать отказоустойчивый кластер хранилищ для виртуальных машин на базе всего двух серверов.
Эти серверы могут исполнять как вычислительную нагрузку для ВМ, так и предоставлять ресурсы хранения. Когда все аспекты инфраструктуры объединяются в единую систему управления, такая инфраструктура называется гиперконвергентной (Hyperconverged Infrastructure, HCI).
Недавно компания StarWind анонсировала HCI-решение Command Center, которое позволит из единого интерфейса осуществлять мониторинг виртуальной среды на базе хранилищ Virtual SAN, а также управлять ею.
Command Center - это веб-интерфейс, построенный на базе технологии HTML5, который дает средства для управления виртуальными машинами и хост-серверами виртуализации, где для каждой из сущностей доступно до 100 различных параметров настройки. Единая панель управления инфраструктуры HCI позволяет выполнять ежедневные операции до 5 раз быстрее по сравнению с использованием нескольких консолей.
С помощью Command Center можно будет не только управлять сущностями виртуальной инфраструктуры, но и контролировать такие процессы, как оркестрация операций, резервное копирование Veeam Backup & Replication и многое другое.
Только 5% функционала Command Center приходится на решение Virtual SAN, остальное - это управление гипервизорами, резервным копированием, инфраструктурой публичных облаков и прочими аспектами. Кстати, Command Center будет поддерживать различные гипервизоры - VMware vSphere, Microsoft Hyper-V, Red Hat KVM и, возможно, другие платформы.
С продуктом можно будет опционально докупить StarWind ProActive Support - она позволит собирать телеметрию с компонентов Command Center и на основе аналитики на стороне StarWind (ML/DL) выявлять причины возникающих проблем.
Это гостевой пост сервис-провайдера ИТ-ГРАД, предоставляющего услуги аренды виртуальных машин из облака. Современный человек вряд ли может представить свою жизнь без достижений цифровой индустрии. Сегодня буквально каждую минуту появляются новые сервисы, которые меняют жизнь людей и даже целых компаний. Как известно, лучшие продукты создаются в момент «той самой встречи» клиента и исполнителя...
В конце прошлого года мы писали о серьезном обновлении VMware Cloud Foundation 3.0 - облачной архитектуры VMware, в которую входит большинство основных продуктов для развертывания, исполнения, мониторинга и поддержки виртуальной инфраструктуры в онпремизном датацентре. С тех пор уже успела выйти VCF 3.5, а на днях было выпущено обновление этой архитектуры VMware Cloud Foundation 3.7.
Архитектура VCF включает в себя компоненты VMware vRealize Suite, VMware vSphere Integrated Containers, VMware Integrated OpenStack, VMware Horizon, NSX и другие, работающие в онпремизной, облачной или гибридной инфраструктуре предприятия, которые желательно развертывать все вместе, но можно какие-то и опустить. Все это находится под управлением решения VMware SDDC Manager.
Давайте посмотрим, что нового появилось в VCF 3.7:
Архитектура VMware Cloud Foundation на платформе VxRail
Эта возможность включает в себя средства интегрированного управления жизненным циклом всего решения в рамках аппаратной архитектуры Dell EMC VxRail. Интеграция происходит за счет специального плагина к vCenter, который связывается с VxRail Manager.
Автоматизированное развертывание vRealize Suite Lifecycle Manager (vRSLCM)
Теперь vRSLCM можно развернуть независимо от остальных компонентов и рабочих процессов под управлением SDDC Manager (и его теперь можно развернуть в любое время).
Это в будущем позволит просто накатывать обновления vRealize Operations и vRealize Automation через интеграцию между vRSLCM и SDDC Manager.
Автоматическое развертывание и управление инфраструктурой виртуальных ПК и приложений Horizon.
Эта возможность позволяет автоматизировать создание, масштабирование и удаление доменов Horizon workload domains через SDDC Manager. Сущность Horizon Domain используется, чтобы накатить инфраструктуру виртуальных десктопов поверх обычных доменов серверной виртуальной инфраструктуры в рамках распределенной архитектуры Horizon PODs.
Далее VI Domains можно конвертировать в VDI Domains:
Общий виртуальный модуль Cloud Builder для VMware Validated Design and VMware Cloud Foundation.
Теперь решение Cloud Builder можно использовать для развертывания обеих этих платформ.
Вот какие версии продуктов и решений VMware были включены в VCF 3.7:
Полный список обновлений VCF 3.7 приведен в Release Notes.
Сайт частных объявлений «Авито» не нуждается в представлении. Сегодня сложно найти человека, который бы ни разу не воспользовался этой популярной площадкой, чтобы купить какую-то вещь, продать или приобрести автомобиль, снять квартиру, найти работу – список можно продолжать бесконечно. На протяжении 11 лет компания растет и развивается, помогая миллионам людей...
Это решение является продолжением уже объявленной VMware в июле прошлого года интеграции с облаком Google средствами плагина Google Cloud plug-in for VMware vRealize Orchestrator (vRO). vRO представляет собой встроенный движок vRealize Automation для оркестрации рабочих процессов в облаке, соответственно, плагин для vRealize Automation позволяет настроить управление рабочими процессами в облаке Google Cloud в дополнение к уже имеющимся процедурам автоматизации в онпремизной инфраструктуре.
С момента превью плагина для vRO команда Google Cloud добавила следующие новые возможности и улучшения в плагин:
Поддержка новых сервисов: Google Kubernetes Engine, Cloud SQL, Cloud Spanner, Cloud Pub/Sub, Cloud Key Management Service, Cloud Filestore (Beta), IAM Service Accounts.
Улучшенные рабочие процессы для работы с облачными ВМ: установка пароля Windows, исполнение SSH-команд, запрос вывода последовательного порта, восстановление из снапшота и другое.
Также для функций плагина к vRO были сделаны следующие улучшения:
Поддержка настройки http-прокси при создании соединения.
Рабочие процессы для упрощения импорта ресурсов XaaS Custom Resources и описаний архитектуры Blueprints в инфраструктуру vRealize Automation.
Дефолтные опции для рабочего процесса по созданию ВМ.
Просмотр оценочной стоимости платы за ВМ в месяц.
Рабочий процесс для сбора ошибок и написания письма в поддержку.
Улучшенная обработка синхронизации соединений для кластеров vRO.
Премиальная поддержка для функций Health Check.
Доработанная пользовательская документация и шаблоны сценариев vRO.
Обзор функций плагина Google Cloud Plug-in for VMware vRealize Automation представлен в видео ниже:
Компания VMware недавно выпустила интересный постер, посвященный облачной IaaS-инфраструктуре, предоставляемой в партнерстве с Amazon - VMware Cloud on AWS - Quick Reference.
Постер дает информацию о различных типах соединений, которые доступны в облаке VMConAWS:
Плакат разделен на 5 секций, заголовки у которых кликабельны - по ссылкам находится детальная информация по соответствующей теме (кроме секции Firewall Rules, где кликабельны подзаголовки).
Содержимое разделов:
Infrastructure Overview - высокоуровневая диаграмма, показывающая отношения между онпремизным датацентром, инфраструктурой VMware Cloud on AWS SDDC и нативными сервисами AWS.
HCX Enterprise Network - детальная диаграмма, раскрывающая суть компонентов HCX, соединения, потоки и порты, используемые между онпремизным датацентром и облаком VMware Cloud on AWS.
Direct Connect Topology - эта секция показывает компоненты и общую топологию использования технологии AWS Direct Connect (DX) для организации соединения между онпремизным датацентром и облаком VMware Cloud on AWS.
NSX-T AWS Connected VPC - эта диаграмма показывает, каким образом организуется коммуникация между виртуальным частным облаком VMware Cloud on AWS VPC (Virtual Private Cloud) и пользовательским соединением VPC, в случае если используются родные сервисы AWS.
Firewall Rules - последняя секция включает список самых часто используемых правил сетевого экрана, используемых между онпремизным датацентром и облаком VMware Cloud on AWS для компонентов Management Gateway, HCX и Site Recovery.
Постер VMware Cloud on AWS - Quick Reference доступен по этой короткой ссылке. Напомним также, что все постеры VMware находятся здесь.
Мировые дата-центры ежегодно расходуют приблизительно 200 тераватт-часов электроэнергии. По некоторым прогнозам, этот показатель может увеличиться в 15 раз к 2030 году. Поэтому регулярно предпринимаются попытки повысить эффективность работы вычислительной инфраструктуры и снизить потребление энергии в ЦОД. Подробнее об этом — в нашем сегодняшнем материале.
DCIM-решения
По данным ряда исследований, примерно треть серверов в дата-центрах, работающих по всему миру, простаивает. Так происходит, потому что организации приобретают больше оборудования в машинные залы, чем им требуется для обслуживания клиентов. Эти ресурсы оказываются не задействованы полностью, но электроэнергия для их питания и охлаждения расходуется.
Один из способов борьбы с такими «зомби-серверами» — использовать специальное ПО для управления инфраструктурой. Это системы Data Center Infrastructure Management (DCIM). Они мониторят энергопотребление серверов, хранилищ, маршрутизаторов и систем кондиционирования. DCIM-решения автоматически распределяют нагрузку между серверами (при необходимости самостоятельно отключают незадействованные устройства) и дают операторам ЦОД рекомендации по настройке скорости работы вентиляторов холодильных установок.
DCIM-решения могут помочь сократить энергопотребление в дата-центре на 9-10%. Например, система способна обнаружить, что вентиляторы кондиционирующей установки вращаются слишком быстро, а серверам в машинном зале не требуется настолько сильный поток холодного воздуха. С помощью такой аналитики и «настройки» дата-центры могут экономить десятки и сотни кВт энергии ежегодно.
Виртуализация
Консолидация приложений на меньшем числе физических машин сокращает затраты на обслуживание железа, охлаждение и электричество. По данным VMware, переход на виртуальные серверы в некоторых случаях приводит к снижению энергопотребления на 80%. Несколько лет назад компании NRDC и Anthesis провели исследование и установили, что замена 3 тыс. серверов на 150 виртуальных машин может снизить ежегодные затраты на электричество на 2 млн долларов.